1,296 research outputs found

    The Careers of Top Managers and Firm Openness: Internal Versus External Labour Markets

    Get PDF
    This paper studies the careers of top managers using a large panel of firms. The main objective is to empirically evaluate the role of learning and human capital acquisition in promotion dynamics along with variables capturing the formation of internal labour market (ILM) practices. We find that promotion is negatively correlated with tenure, but that there is a non-linear negative duration dependence with elapsed time since the last promotion event. Firms showing a weaker degree of ILM are less prone to promote insiders. We next take the manager's career inside a firm as a sequence of promotion decisions, and use a nested structure of the promotion decision modelled as a nested logit model. �Results show that the top manager's progression nest into four types: loser, early starter, late beginner, and champion, and that the degree of ILM as a signigicant impact on the process of learning inside the firm.

    O procedimento de manifestação de interesse à luz do ordenamento jurídico brasileiro

    Get PDF
    Divulgação dos SUMÁRIOS das obras recentemente incorporadas ao acervo da Biblioteca Ministro Oscar Saraiva do STJ. Em respeito à lei de Direitos Autorais, não disponibilizamos a obra na íntegra.Localização na estante: 351.712.2(81) L732

    A (re)construção da cultura organizacional em mega-agrupamentos de escolas: tensões e contradições

    Get PDF
    Integrado num projeto de investigação em curso, este texto analisa o processo de (re)construção da cultura organizacional em mega-agrupamentos de escolas, em particular as tensões surgidas a propósito dos valores e significados partilhados sobre o funcionamento da organização. Ao nível do enquadramento teórico, entende-se o mega-agrupamento como modalidade especial de organização escolar, caraterizada pela existência de um campo organizacional e um campo interorganizacional, mobilizando-se metáforas e imagens de caráter interpretativo para esta dupla análise. Por outro lado, adota-se uma perspetiva multifocalizada e multiparadigmática na análise do processo de (re)construção da cultura organizacional, tendo em vista identificar os fatores intervenientes e o grau de partilha da cultura, geradores de configurações múltiplas. O projeto de investigação enquadra-se no paradigma interpretativo, adota uma abordagem mista e elege, como modalidade de investigação, o estudo de caso. Apesar da diversidade de técnicas de investigação previstas, nesta fase do projeto apenas se mobilizam dados recolhidos através de observação, de entrevista e de análise documental. Como principais conclusões, destacam-se: a existência de contradições na (re)construção dos valores e significados partilhados, geradoras de tensões internas; o controlo da organização pela liderança da escola-sede, em articulação com membros da organização e da comunidade, face ao hibridismo da regulação nacional; um processo de (re)construção da cultura organizacional marcado pela integração, diferenciação e fragmentação

    Lignopolyol based one-component polyurethane foams

    Get PDF
    Tese de mestrado em Química Tecnológica, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2015Num futuro muito próximo, está previsto um aumento drástico das emissões de CO2 em todo o mundo. Segundo dados da OCDE, as emissões de CO2 aumentarão cerca de 50% até 2050. Um dos grandes contribuidores são as emissões de fontes energéticas como os combustíveis fósseis. Para além disso, é uma fonte não renovável de energia e de matéria-prima para a indústria química, o que tem levado muitos cientistas a tentarem encontrar novas fontes que sejam mais renováveis e ecológicas, como a biomassa. Segundo a Diretiva Europeia 28/2009/EC a biomassa “consiste na “fração biodegradável” de produtos, resíduos e detritos de origem biológica provenientes da agricultura (incluindo substâncias vegetais e animais), da exploração florestal e das indústrias afins, incluindo a da pesca e da aquicultura bem como a fração biodegradável de resíduos industriais e urbanos”. Aproximadamente 70% da biomassa vegetal é composta por células vegetais. É estimado que por ano são geradas cerca de 200x109 toneladas no mundo inteiro de biomassa, ultrapassando largamente a produção anual de barris de petróleo. Mesmo que se só vá utilizar uma fração da biomassa, esta pode apresentar uma boa alternativa ao petróleo na área energética mas também na área da produção de químicos. Um dos processos que tem sido alvo de desenvolvimento nos últimos tempos para a transformação da biomassa vegetal em produtos químicos é a liquefação. Este processo consiste na decomposição da celulose, hemicelulose e lenhina através duma reação de solvólise a temperaturas na ordem dos 160ºC e a pressão atmosférica. O produto final primário será uma mistura de polióis com funcionalidade cerca de 2,5, com alto valor OH e baixo valor ácido, o que os torna adequados para a produção de espumas rígidas de poliuretano. Neste trabalho polióis provenientes da casca de eucalipto (Eucalyptus Globulus), pinho (pinus pinaster), pó de cortiça e madeira de choupo foram diretamente introduzidos em formulações de espumas de um componente (One Component Foams, OCF) com o objetivo de substituir totalmente os polióis derivados do petróleo, criando um produto comerciável mais ecológico e proveniente de fontes renováveis. Deste modo, o trabalho dividiu-se em duas fases: uma em que se liquefez e caracterizou-se os polióis derivados das madeiras, e outra em que foram gradualmente introduzidos numa formulação base OCF já comerciável, verificando sempre as qualidades, envelhecimento e inflamabilidade das espumas obtidas. Na liquefação foram utilizados um monol e um diol como solventes. Depois de adicionados à biomassa dentro do reator, a temperatura foi elevada até 160 ºC e deixou-se reagir entre 1 e 2h, dependendo da biomassa. Depois de a liquefação ter ocorrido, os açúcares provenientes da celulose e hemicelulose são removidos através de extração liquido-liquido com água. A importância deste passo é elevada, pois se não forem removidos, o valor OH dos pólios será demasiado elevado e as espumas resultantes serão quebradiças. Para além disso, também é muito importante remover a maior quantidade de água possível dos polióis, pois uma elevada quantidade de água dentro das latas faz com que ocorra uma reação de expansão precoce e a pressão interna aumente, aumentando o risco de rebentamento. As quantidades utilizadas foram 70g para o pó de cortiça, 50 gramas para a casca de eucalipto e 85 gramas para a madeira de choupo, sendo os tempos de reação 2h, 1-2h e 1h-1h30min e as conversões 67-79%, 60-66% e 83-91%, respetivamente. As conversões da biomassa proveniente do eucalipto foram inferiores devido ao facto de esta ser uma casca, e portanto possuir um teor em lenhina substancialmente maior que as restantes. Os valores OH variaram entre 193 e 303 mg KOH/g e os conteúdos de água entre 0,35% e 1,07%. A análise do espectro de infravermelho permitiu concluir que o composto produzido é um álcool aromático com grupos carbonilo, provando assim ser um derivado da lenhina e da suberina. A introdução de cada um dos polióis provenientes da biomassa vegetal em formulações de espuma rígida de poliuretano de um componente foi feita de forma gradual, começando com 5%, 50% e por fim 100% em partes por peso, substituindo por fim completamente os polióis da formulação base. A substituição foi feita utilizando um ficheiro de excel existente na empresa, denominado de Foamcalc, onde os ajustes poderão ser feitos automaticamente. Depois de cada formulação estar pronta e devidamente ajustada, foram enchidas uma lata para cada poliól. No enchimento da lata três componentes gerais são adicionados: um componente A, composto por uma mistura dos polióis, catalisador, crosslinker, plastificante e surfactante; um componente B composto por um prepolímero de isocianato e um componente C composto por uma mistura de gases propulsores. O primeiro componente a adicionar à lata será o componente B. O prepolímero de isocianato é produzido in situ pela própria empresa utilizando um isocianato comercial. De seguida, é preparado o componente A adicionando todos os seus constituintes, tendo o cuidado de não adicionar primeiro os mais viscosos (para não colar no fundo) nem os de menor quantidade (para garantir que se integram completamente na mistura). De seguida, são misturados mecanicamente e adicionados à lata. Por fim a lata é selada e os gases são introduzidos através da válvula de saída, utilizando uma estação de enchimento adequada. Depois de agitar vigorosamente durante 1 minuto a lata é deixada a repousar durante 12h. Durante este período ocorre a reação de polimerização entre o poliól e o prepolímero de isocianato. Passado este tempo, é colocada em repouso novamente mas a 5ºC durante 4h, dando-se inicio depois aos testes de avaliação da espuma. Nos testes de avaliação, é determinada a taxa de débito, em g/s, e a espuma líquida é pulverizada em papel e em molde a 5 e 23ºC, onde é depois dada uma classificação de -5 a 5 a vários parâmetros visuais, como a quantidade de buracos presentes na base ou no interior da espuma curada. Uma espuma será qualificada como sendo de boa qualidade se a taxa de débito for superior a 3,5 g/s e se nenhum dos seus parâmetros tiver uma pontuação abaixo de 3. Nesta fase, as substituições até 100% foram efetuadas com sucesso em todos os polióis derivados da biomassa vegetal, e todas as espumas avaliadas nesta fase obtiveram uma classificação quase boa, sendo a baseada no poliól de pinho a melhor com apenas um valor abaixo de 3 na substituição a 100%, sendo melhor até que uma espuma de controlo baseada num poliól derivado do caju. Visto que a introdução foi um sucesso, o teste de envelhecimento acelerado foi realizado em todas as formulações. Neste teste a qualidade da espuma é avaliada a 0, 6 e 12 meses, por isso foram produzidas 3 latas por cada formulação, incluindo a de controlo. Uma lata foi logo avaliada no dia seguinte, e as outras duas foram colocadas numa estufa a 45ºC durante 26 e 52 dias, de modo a obter um envelhecimento acelerado de 6 e 12 meses, respetivamente. Passado esse tempo, as espumas foram avaliadas utilizando o mesmo método referido anteriormente e a deterioração de qualidade foi avaliada. Ao contrário da fase anterior, as espumas que apresentaram melhor resultado foram as baseadas nos polióis derivados do pó de cortiça. Para uma espuma ser comerciável, não só terá que passar no teste de qualidade, mas também terá que ser B2 (não muito inflamável) e possuir menos de 1% de monomérico livre. Deste modo, testes de resistência à chama foram realizados de acordo com a parte 1 da norma DIN-4102, utilizando as formulações com 100% polióis derivados da biomassa vegetal mas com 5g de retardante de chama. Contudo, os resultados foram negativos em todas as formulações, incluindo a formulação base e a de controlo. A percentagem de monomérico livre foi impossível de determinar devido ao facto de não haver equipamento disponível na altura. Em suma, a introdução dos polióis derivados da biomassa foi um sucesso, produzindo espumas com qualidade quase boa e que não deterioram muito ao longo do tempo. Porém, como trabalho futuro será necessário melhorar as formulações, realizar estudos de resistência à chama com novos e variados retardantes de chama e medir a percentagem de monomérico livre de modo a que se tornem comerciáveis.Fossil fuels, such as natural gas, coal and oil are the base of all modern societies. They are used to produce energy that fuels all kind of industries and generates electricity. According to the OECD environmental outlook, the emissions are expected to grow 50% between now and until 2050, primarily due to a 70% growth in energy-related CO2 emissions. In Europe, the chemical industry accounted for 14% of total greenhouse emissions in 1990.6 In an effort to tackle this global problem, efforts are being made by the chemical companies by developing more ecological products. One alternative carbon source to the fossil fuels is the production of multifunctional polyols from the plant biomass by a solvolysis liquefaction process. In this work, polyols were successfully produced by an acid liquefaction of eucalyptus bark, pine wood chips, cork powder and poplar wood chips, at 160ºC and an ambient pressure, with conversion ratios of 58-91%, depending on the biomass. These new polyols, or lignopolyols, had an OH value of 193-303 mg KOH/g and a water content of 0,31-1,07%. The infrared spectra analysis concluded that they were an aromatic compound, with carbonyl and OH groups, which led to the conclusion that they must be derived from lignin and suberin. After they were produced, the polyols from a base OCF formulation were progressively replaced by the lignopolyols in 5, 50 and then 100% parts per weight. The resultant rigid polyurethane foams had good outputs (over 3,5 g/s), an overall almost good quality and low quality degradation after 12 months of shelf life. The foam that presented the best results was the one based on the cork lignopolyol, having better quality than the control foam. However, all of them were very flammable submitted to an ignitibility test, even when a flame retardant was used. To turn them into commercially viable one component foams, improvements in the formulations and further tests shall be done in future work. Flame retardant tests and the measurement of free monomeric MDI with HPLC shall be carried out

    Performance Evaluation of Smart Decision Support Systems on Healthcare

    Get PDF
    Medical activity requires responsibility not only from clinical knowledge and skill but also on the management of an enormous amount of information related to patient care. It is through proper treatment of information that experts can consistently build a healthy wellness policy. The primary objective for the development of decision support systems (DSSs) is to provide information to specialists when and where they are needed. These systems provide information, models, and data manipulation tools to help experts make better decisions in a variety of situations. Most of the challenges that smart DSSs face come from the great difficulty of dealing with large volumes of information, which is continuously generated by the most diverse types of devices and equipment, requiring high computational resources. This situation makes this type of system susceptible to not recovering information quickly for the decision making. As a result of this adversity, the information quality and the provision of an infrastructure capable of promoting the integration and articulation among different health information systems (HIS) become promising research topics in the field of electronic health (e-health) and that, for this same reason, are addressed in this research. The work described in this thesis is motivated by the need to propose novel approaches to deal with problems inherent to the acquisition, cleaning, integration, and aggregation of data obtained from different sources in e-health environments, as well as their analysis. To ensure the success of data integration and analysis in e-health environments, it is essential that machine-learning (ML) algorithms ensure system reliability. However, in this type of environment, it is not possible to guarantee a reliable scenario. This scenario makes intelligent SAD susceptible to predictive failures, which severely compromise overall system performance. On the other hand, systems can have their performance compromised due to the overload of information they can support. To solve some of these problems, this thesis presents several proposals and studies on the impact of ML algorithms in the monitoring and management of hypertensive disorders related to pregnancy of risk. The primary goals of the proposals presented in this thesis are to improve the overall performance of health information systems. In particular, ML-based methods are exploited to improve the prediction accuracy and optimize the use of monitoring device resources. It was demonstrated that the use of this type of strategy and methodology contributes to a significant increase in the performance of smart DSSs, not only concerning precision but also in the computational cost reduction used in the classification process. The observed results seek to contribute to the advance of state of the art in methods and strategies based on AI that aim to surpass some challenges that emerge from the integration and performance of the smart DSSs. With the use of algorithms based on AI, it is possible to quickly and automatically analyze a larger volume of complex data and focus on more accurate results, providing high-value predictions for a better decision making in real time and without human intervention.A atividade médica requer responsabilidade não apenas com base no conhecimento e na habilidade clínica, mas também na gestão de uma enorme quantidade de informações relacionadas ao atendimento ao paciente. É através do tratamento adequado das informações que os especialistas podem consistentemente construir uma política saudável de bem-estar. O principal objetivo para o desenvolvimento de sistemas de apoio à decisão (SAD) é fornecer informações aos especialistas onde e quando são necessárias. Esses sistemas fornecem informações, modelos e ferramentas de manipulação de dados para ajudar os especialistas a tomar melhores decisões em diversas situações. A maioria dos desafios que os SAD inteligentes enfrentam advêm da grande dificuldade de lidar com grandes volumes de dados, que é gerada constantemente pelos mais diversos tipos de dispositivos e equipamentos, exigindo elevados recursos computacionais. Essa situação torna este tipo de sistemas suscetível a não recuperar a informação rapidamente para a tomada de decisão. Como resultado dessa adversidade, a qualidade da informação e a provisão de uma infraestrutura capaz de promover a integração e a articulação entre diferentes sistemas de informação em saúde (SIS) tornam-se promissores tópicos de pesquisa no campo da saúde eletrônica (e-saúde) e que, por essa mesma razão, são abordadas nesta investigação. O trabalho descrito nesta tese é motivado pela necessidade de propor novas abordagens para lidar com os problemas inerentes à aquisição, limpeza, integração e agregação de dados obtidos de diferentes fontes em ambientes de e-saúde, bem como sua análise. Para garantir o sucesso da integração e análise de dados em ambientes e-saúde é importante que os algoritmos baseados em aprendizagem de máquina (AM) garantam a confiabilidade do sistema. No entanto, neste tipo de ambiente, não é possível garantir um cenário totalmente confiável. Esse cenário torna os SAD inteligentes suscetíveis à presença de falhas de predição que comprometem seriamente o desempenho geral do sistema. Por outro lado, os sistemas podem ter seu desempenho comprometido devido à sobrecarga de informações que podem suportar. Para tentar resolver alguns destes problemas, esta tese apresenta várias propostas e estudos sobre o impacto de algoritmos de AM na monitoria e gestão de transtornos hipertensivos relacionados com a gravidez (gestação) de risco. O objetivo das propostas apresentadas nesta tese é melhorar o desempenho global de sistemas de informação em saúde. Em particular, os métodos baseados em AM são explorados para melhorar a precisão da predição e otimizar o uso dos recursos dos dispositivos de monitorização. Ficou demonstrado que o uso deste tipo de estratégia e metodologia contribui para um aumento significativo do desempenho dos SAD inteligentes, não só em termos de precisão, mas também na diminuição do custo computacional utilizado no processo de classificação. Os resultados observados buscam contribuir para o avanço do estado da arte em métodos e estratégias baseadas em inteligência artificial que visam ultrapassar alguns desafios que advêm da integração e desempenho dos SAD inteligentes. Como o uso de algoritmos baseados em inteligência artificial é possível analisar de forma rápida e automática um volume maior de dados complexos e focar em resultados mais precisos, fornecendo previsões de alto valor para uma melhor tomada de decisão em tempo real e sem intervenção humana

    The Transport-Ticket System in Brazil for Urban Public Transport

    Get PDF
    The transport-ticket system in Brazil for urban public transport was implanted on 1987, in the big cities. By the system, the employers must to supply their employees with sufficient amount of tickets, to facilitate their diary translation from home to office. Since their implantation, the system facilitates the maintenance of the urban public transport quality and permits the normal fulfilment of the urban economic activity. Meanwhile, the system means a large allowance, from the firms and employers to the urban bus companies, partially compensated by the income tax depression. The article analyse just the effects, not properly beneficial, of this transport - ticket system functioning for the small and medium size firms.Institute of Transport and Logistics Studies. Faculty of Economics and Business. The University of Sydne

    Machine and mechanism design at UMinho: research-teaching interaction

    Get PDF
    Publicado em: "New trends in mechanism and machine science: from fundamentals to industrial applications. ISBN 978-3-319-09410-6. Series: Mechanisms and machine science, vol. 24, ISSN 2211-0984"The Multiweave project involved the design of a prototype machine with several mecha-nisms, namely gear trains and various conjugate cams with oscillating roller followers. For this design phase the research team integrated postgraduate student work. In order to evaluate the quality of the manufactured cam profiles as well as the accuracy of the follower’s displacement, an experimental work has been designed. This study, which was carried out within a final year Mechanical Engineering student’s group project, was of great importance in the development of the prototype machine to pro-duce multidirectional woven fabrics, which was the main objective of the Multiweave project. The whole set-up is presented with the experimental details and the results are analysed and discussed. This measurement system is based on a laser triangulation sensor Micro-Epsilon ILD 1302-50 to measure with no contact and high resolution. The obtained results were compared with the expected theoretical values and it could be concluded that, in general, the experimental results adjust very well to the theo-retical ones. However it was possible to conclude about the existence of some differences due to clear-ances in joints, geometric differences in the kinematic chain and manufacturing defects on the follower in terms of irregularities and surface roughness as well as some manufacturing imperfections of the cam surface

    Levantamento dos pontos críticos e aplicação de boas práticas de manejo na base de piscicultura Carlos Eduardo Matiaze

    Get PDF
    Trabalho de Conclusão de Curso apresentado ao Departamento de Engenharia de Pesca da Fundação Universidade Federal de Rondônia – UNIR, como requisito para a obtenção do título de Engenheiro de Pesca. Orientador: Prof. Dr. Marlos oliveira porto.As boas práticas de manejo são importantes para prevenção, eliminação ou minimização de riscos, visando à saúde animal, a preservação do meio ambiente e a qualidade dos resultados, sempre correlacionando com a proteção à saúde humana. Na piscicultura, as boas práticas aplicam se ao manejo para criação de barreiras que protejam os peixes de doenças e evite a contaminação das pessoas. Um planejamento voltado à proteção específica da cadeia produtiva piscícola, deve ser implantado, pois, o uso eficiente, ajuda a diminuir os impactos negativos, como aparecimento de doenças, emissão de efluentes ou degradação ambiental, para controle no sistema de produção, tornando a atividade insustentável do ponto de vista econômico e ambiental. O trabalho foi realizado na BPCEM (Base de Piscicultura Carlos Eduardo Matiaze), o foco principal do estudo foi avaliar as atividades praticadas durante o manejo, avaliar a infraestrutura de laboratório e os espaços físicos dos viveiros e represa. O local de estudo foi escolhido devido à necessidade de praticar medidas de biossegurança e tecnológica que visem às boas práticas de manejo e a segurança do trabalho, para torna o setor da IFES – Instituição Federal de Ensino Superior, como umas das referências pública da criação aquícolas, podendo assim, realizar atividades de pesquisa, ensino e difusão de tecnologia, para que os desafios encontrados a campo sejam sanados, contribuindo assim, com os fatores sanitários, econômicos e ambientais. Os resultados dos estudos apresentam algumas deficiências de manejo que podem ser corrigidas facilmente, aplicando-se algumas técnicas existentes na literatura, por outro lado, quanto à infraestrutura necessita-se da implantação de novos prédios ou correções estruturais

    Investimento Direto Externo, Acumulação de Capital Produtivo e Distribuição de Renda: uma Abordagem Pós-Keynesiana

    Get PDF
    It is developed a macrodynamic model in the post-keynesian tradition of political economy of the productive capital accumulation and income distribution to analyze some of the impacts of the (flow of) foreign direct investment and the (stock of) foreign productive capital on capital accumulation, economic growth and functional income distribution in a stylized economy. Alongside a usual demand effect, the impacts of such an internationalization of local capital through labor productivity and market concentration are taken into account as well.foreign direct investment, capital accumulation, income distribution

    Conceptual design and development of an automated co-generation system

    Get PDF
    Co-generation or Combined Heat and Power (CHP) is the simultaneous generation of both electricity and heat from the same fuel for useful purposes. The fuel varies greatly and can include coal, biomass, natural gas, nuclear material, the sun or heat stored in the earth. Co-generation (as a vector of energy efficiency) and renewable sources of energy possess their own set of low carbon benefits. Coupling co-generation and renewable sources contribute to a very strong proposition since it leads to the supply of both low-carbon electricity and low-carbon heat. In the case of co-generation plants fuelled by renewable energy sources, the low-carbon benefits of the heat are obvious since they derive from the renewable nature of the fuel. However, this also apply in the case of plants feed by other types of fuel. Such plants produce excess heat alongside electricity. When this heat, which is an unavoidable by-product, is used to satisfy an existing heat demand carbon dioxide (CO2) emissions are reduced overall, through a more efficient use of the fuel. The distributed generation systems produce energy close to the point of use, which typically doubles the efficiency in terms of fuel input‐to‐energy output ratio compared to conventional power generation in central plants. This means that the same amount of energy can be produced with half the amount of fuel, making distributed generation an effective approach to reducing greenhouse gas emissions. According to official government reports, the creation of distributed generation systems will account for at least 5% of gas reduction. In this paper the conceptual design and development of an automated co-generation system to apply in collective residences is presented. After concluding the definition of the demanded specifications and requirements for the co-generation system it is presented and discussed the developed solution with the identification of the main components, including the selection and prototype implementation of the necessary sensors and actuators that integrate the system. It is also shown a systematized approach that consists in using the GEMMA and the SFC formalisms for the structure and specification of all the system behaviour, considering all the stop states and functioning modes of the co-generation system.(undefined
    corecore